摘要 随着用于辅助或自动化决策的人工智能 (AI) 的快速发展,其公平性尤其受到关注。为了通过以人为本的人工智能 (HCAI) 设计创建可靠、安全和值得信赖的系统,最近的努力已经为 AI 专家制作了用户界面 (UI),以调查 AI 模型的公平性。在本文中,我们提供了一种设计空间探索,不仅支持数据科学家,也支持领域专家调查 AI 公平性。以贷款申请为例,我们与贷款人员和数据科学家举行了一系列研讨会,以了解他们的需求。我们将这些需求实例化为 FairHIL,这是一个支持人机交互公平性调查的 UI,并描述了如何将此 UI 推广到其他用例。我们通过出声思考用户研究评估了 FairHIL。我们的工作有助于更好地设计以调查 AI 模型的公平性 — — 并更接近负责任的 AI。
主要关键词